首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏Zaqdt_ACM

    flower

          题目链接:http://acm.zzuli.edu.cn/problem.php?id=2261       题目说可能有多种情况,但我觉得只能有一种答案,所以我就无视了那句话,思路就是根

    44530发布于 2019-01-08
  • 来自专栏Java领域客栈

    微服务(Microservices)——Martin Flower

    原文是 Martin Flower 于 2014 年 3 月 25 日写的《Microservices》。 这是一篇枯燥乏味的文章,但它足够能让你更深层次了解微服务。 没有梦想,何必远方 。

    37320编辑于 2022-09-23
  • 来自专栏哲学驱动设计

    微服务(Microservices)——Martin Flower【翻译】

    原文是 Martin Flower 于 2014 年 3 月 25 日写的《Microservices》。 参考资料 Martin Flower,Microservices infoQ,微服务架构解析

    1.4K80发布于 2018-01-30
  • 来自专栏深度学习框架

    图像分类-flower_photos 实验研究

    补充思考: flower_photos 数据量比较小,所以 simple_cnn 可以在 trainset 上拟合到 0.99,意思就是数据复杂度 < 模型复杂度 添加数据增强的本质是扩大模型见过的数据量 想要模型泛化性好,只有一个关键因素,数据量 如果让 simple_cnn 在 ImageNet 上做预训练,然后 flower_photos 上做训练,效果会更好吗? 从模型的浅层、中层、深层提取到的不同层次抽象特征来看,MobileNet 等网络无疑更加符合这个划分,此处 simple_cnn 过于简单,所以打个问号 数据集: flower_photos daisy 代码地址: https://github.com/MaoXianXin/Tensorflow_tutorial,但是需要在如上图的地方 flower dataset 这个 commit 处开一个新分支, 可以看到,进行 fine-tune 的话,模型准确率进一步提升,从 0.8937 ---> 0.9482 到此为止,我们实现了在 flower_photos 数据集上 val_acc = 0.9482,

    82300发布于 2021-08-22
  • 来自专栏VoiceVista语音智能

    Alango - Speech Recognition Enhancement

    我们不难想象出其重要性,比如外科医生(surgeon)在外科手术时佩戴智能眼镜,或者是建筑师在勘察施工现场的时候与电气工程师交流等等,所有这些用户场景都需要经过Alango 语音识别增强的(Speech Recognition

    75420发布于 2020-04-27
  • 来自专栏python3

    nginx+uwsgi+djangorestframework+flower+celery+redis

    nginx+uwsgi+djangorestframework+flower+celery+redis配置如下: nginx server配置, 没有https,注释掉ssl开头配置即可. server 安装flower: 实时监控celery任务状态 pip install flower 启动flower # --max_tasks 为页面允许存储的最大数 flower --port=7788 --broker 执行任务,查看flower监控的状态: 访问页面: http://ip:7788 ? 查看任务状态 ?

    1.9K10发布于 2020-01-02
  • 来自专栏潇涧技术专栏

    Dog Face Recognition

    HOSVD算法是SVD算法在高维空间的扩展,在人脸识别领域使用的也比较多,相关知识参考书籍《Matrix Methods in Data Mining and Pattern Recognition》。 参考资料: 1.Pattern Recognition. Sergios Theodoridis 2.Introduction to Pattern Recognition: A Matlab Approach. Sergios Theodoridis 3.Matrix Methods in Data Mining and Pattern Recognition.

    82920发布于 2018-08-01
  • 来自专栏GiantPandaCV

    BoTNet:Bottleneck Transformers for Visual Recognition

    基于Transformer的骨干网络,同时使用卷积与自注意力机制来保持全局性和局部性。模型在ResNet最后三个BottleNeck中使用了MHSA替换3x3卷积。属于早期的结合CNN+Transformer的工作。简单来讲Non-Local+Self Attention+BottleNeck = BoTNet

    84750编辑于 2021-12-29
  • 来自专栏用户2442861的专栏

    Scene Text Localization & Recognition Resources

    https://github.com/chongyangtao/Awesome-Scene-Text-Recognition A curated list of resources dedicated to scene text localization and recognition Papers & Code Overview [2015-PAMI] Text Detection and Recognition in Imagery: A Survey paper [2014-Front.Comput.Sci] Scene Text Detection and Recognition: Jaderberg] Deep structured output learning for unconstrained text recognition paper [2015-D.Phil Thesis and Its Application to Scene Text Recognition paper code github AI Lab, Stanford [2012-ICPR, Wang]

    82020发布于 2018-09-19
  • 来自专栏机器学习算法与理论

    【Face recognition】人脸识别实战

    图片发自简书App 深度神经网络一般使用CNN,而CNN的改进又有Resnet残差网络,引入shortcut connection,以避免梯度弥散和爆炸,当前层让前面好多层的特征也可以随着前一层一起输入到当前层网络中去。 比较成熟的网络现在有VGG-16等。 训练过程有一个叫Triplet loss的损失函数,用于训练网络,其原理是一个三元组中,同一类别的距离应小于相异类别的距离加上一个阈值。

    1K70发布于 2018-04-10
  • 来自专栏AI科技评论

    《Pattern Recognition Letters》特刊通知

    u.nus.edu 王正,东京大学,日本,邮箱:wangz@g.ecc.u-tokyo.ac.jp 更多信息请见: https://www.journals.elsevier.com/pattern-recognition-letters

    48220发布于 2021-07-27
  • 来自专栏VoiceVista语音智能

    From Automatic to Autonomous Speech Recognition

    image.png

    38810编辑于 2022-05-17
  • 来自专栏AI算法与图像处理

    Face Recognition Loss on Mnist with Pytorch

    Deep face recognition: A survey[J]. arXiv preprint arXiv:1804.06655, 2018.

    94220发布于 2020-11-23
  • 来自专栏探物及理

    Face_Recognition_v3a

    Face Recognition In this assignment, you will build a face recognition system. Face Recognition - "who is this person?". Your face recognition system is working well! You've now seen how a state-of-the-art face recognition system works. The same encoding can be used for verification and recognition.

    1.4K10发布于 2020-08-25
  • 来自专栏深度应用

    『OCR_Recognition』CRNN

    文字识别是AI的一个重要应用场景,文字识别过程一般由图像输入、预处理、文本检测、文本识别、结果输出等环节组成。

    4.3K40发布于 2021-09-10
  • 来自专栏Soul Joy Hub

    Text Matching as Image Recognition

    33741547/article/details/80649542 一、概述 MatchPyramid来自Liang Pang等在2016发表的一篇文章Text Matching as Image Recognition

    1.1K50发布于 2019-06-11
  • 来自专栏计算机视觉理论及其实现

    Deep Residual Learning for Image Recognition

    更深层次的神经网络更难训练。我们提出了一个残差学习框架来简化网络的训练,这些网络比以前使用的网络要深入得多。我们显式地将层重新表示为参考层输入的学习剩余函数,而不是学习未引用的函数。我们提供了全面的经验证据表明,这些剩余网络更容易优化,并可以从大幅增加的深度获得精度。在ImageNet数据集上,我们评估了高达152层的剩余网—比VGG网[41]深8×,但仍然具有较低的复杂性。这些残差网的集合在ImageNet测试集上的误差达到3.57%,该结果在ILSVRC 2015年分类任务中获得第一名。我们还对CIFAR-10进行了100层和1000层的分析。在许多视觉识别任务中,表征的深度是至关重要的。仅仅由于我们的深度表示,我们获得了28%的相对改进的COCO对象检测数据集。深度残差网是我们参加ILSVRC & COCO 2015竞赛s1的基础,并在ImageNet检测、ImageNet定位、COCO检测、COCO分割等方面获得第一名。

    1.4K11编辑于 2022-09-04
  • 来自专栏计算机视觉理论及其实现

    AutoFormer: Searching Transformers for Visual Recognition

    最近,基于Transformers的模型在图像分类和检测等视觉任务中显示出了巨大的潜力。 然而,变压器网络的设计是具有挑战性的。 已经观察到,深度、嵌入尺寸和头部的数量在很大程度上影响视觉变形器的性能。 以前的模型基于手工手工配置这些维度。 在这项工作中,我们提出了一个新的一次性架构搜索框架,即AutoFormer,专门用于视觉Transformers搜索。 在超网训练期间,自动前缠绕不同块的重量在同一层。 受益于该战略,训练有素的超级网络允许数千个子网得到非常好的训练。 具体来说,这些继承自超级网络权重的子网的性能与那些从头开始重新训练的子网相当。 此外,搜索模型,我们参考的AutoFormers,超过了最近的先进水平,如ViT和DeiT。 特别是AutoFormer-tiny/small/base在ImageNet上实现了74.7%/81.7%/82.4%的top-1精度,分别为5.7M/22.9M/53.7M参数。 最后,我们通过提供下游基准和蒸馏实验的性能来验证自动成形机的可移植性。

    1.4K30编辑于 2022-04-03
  • 来自专栏数据分析与挖掘

    FReLU-Funnel Activation for Visual Recognition

    代码地址:https://github.com/megvii-model/FunnelAct

    58020发布于 2020-08-26
  • 来自专栏全栈程序员必看

    实验笔记 – 表情识别(emotion recognition

    本文主要整理自笔者在表情识别(emotion recognition)研究上的实验笔记资料,给出了表情识别常用的数据库,论文资料,识别方法,评价指标,以及笔者的实验笔记和实验结果。    Scherer, “Meta-Analysis ofthe First FacialExpression Recognition Challenge,”Systems,Man, andCybernetics IEEEInternational Conference on Automatic Face and Gesture Recognition (FG2011).    地址:http://www.pitt.edu/~emotion/um-spread.htm 3.2 表情识别比赛   1)The Third Emotion Recognition in the 四、实验-算法说明 4.1 表情数据库   Fer2013:Kaggle facial expression recognition challenge dataset   详细说明:   The

    2.4K20编辑于 2022-07-25
领券